其他
腾讯云容器服务TKE推出新一代零损耗容器网络
腾讯云容器服务TKE 借助智能网卡推出新一代容器网络方案,实现了一个 Pod 独占一张弹性网卡,不再经过节点网络协议栈(default namespace),极大缩短容器访问链路和访问时延,并使 PPS 可以达到整机上限。基于新一代容器网络方案,短链接场景下, QPS 相比之前容器网络方案(策略路由方案,网桥方案)提升 50%-70%;长链接场景下 QPS 提升 40%-60%。
由于不再经过节点网络协议栈,传统基于 iptables 和 IPVS 的 ClusterIP service 访问方案不能直接适用于新方案。为了同时能实现 Pod 可以直接访问 ClusterIP service,TKE推出 share-NS IPVS 方案,使得在容器网络命名空间下,也可以访问到节点网络协议栈的 IPVS 规则;同时,配合 CLB 直通 Pod,最终实现了完整意义上的弹性网卡直通。
新一代容器网络方案实现了针对 ClusterIP service 短链接场景下, QPS 相比 iptables 方案提升 40%-60%,IPVS 方案提升 70%-90%;长链接场景下, QPS 相比 iptables 方案提升 30%-50%,IPVS 方案提升 50%-70%。
新一代容器网络方案推出背景
在介绍新一代容器网络方案前,先和大家介绍一下 TKE 现有网络方案,和现有网络方案面临的挑战,以及客户新诉求。现有网络方案介绍
腾讯云容器服务 TKE 目前提供了两种容器网络模式供用户选择使用。GlobalRouter 模式:基于 vpc 实现的全局路由模式,目前是 TKE 默认网络方案。该模式依托于 vpc 底层路由能力,不需要在节点上配置 vxlan 等 overlay 设备,就可实现容器网络 和 vpc 网络的互访,并且相比于 calico/flannel 等网络方案,没有额外的解封包,性能也会更好。随着客户使用场景的丰富, TKE 的客户对容器网络又提出了更高的要求。
客户对 TKE 网络方案的新需求
除了在为腾讯外部客户提供容器网络能力外,腾讯云容器服务 TKE 作为腾讯内部业务云原生的底座,在支持腾讯内部自研业务上云如 QQ、腾讯会议、游戏、CDB、大数据等业务的过程中也收到以下的需求点:
在 VPC-CNI 模式的基础上进一步降低资源损耗,降低网络时延,提高网络吞吐(关键点) 支持 Pod 级别的安全隔离 支持 CLB 直通Pod,不再经过 NodePort 转发,提升转发性能并拥有统一的负载均衡视图
TKE新一代网络方案介绍
TKE 新一代网络方案在原有 VPC-CNI 模式单网卡多 IP 模式的基础上, 进阶为容器直接独享使用弹性网卡,无缝对接腾讯云私有网络产品的全部功能,同时在性能做了极大的提升。压测数据说明为了得到不同网络方案下的 QPS,这里控制变量,让不同网络方案的 nginx Pod 运行在同一个节点,使用 wrk 分别压测不同 Pod,并让服务端节点的 cpu 接近100%。
为了得到不同 Service 方案下的 QPS,这里控制变量,让 kube-proxy 和 wrk Pod 运行在同一节点,压测相同后端,并让客户端节点的 cpu 接近100%。
功能简介
新一代 VPC-CNI 模式的网络方案中,能够在原有的网络能力中额外增加支持 Pod 绑定 EIP/NAT,不再依赖节点的外网访问能力,无须做 SNAT,可以满足直播、游戏、视频会议等高并发,高带宽外网访问场景
支持 Pod 绑定安全组,实现 Pod 级别的安全隔离 支持基于 Pod 名称的固定 IP,Pod 重新调度后仍能保证 IP 不变 支持 CLB 直通 Pod,不再经过 NodePort 转发,提升转发性能并拥有统一的负载均衡视图 即将支持黑石 2.0物理服务器(推荐使用, 默认使用智能网卡,网络性能更高) 即将支持基于 Pod 名称的固定 EIP,满足 Pod 固定外网出口
使用方法
申请新一代容器网络方案内测开通后,创建 TKE 集群时容器网络模式选择 VPC-CNI/Pod 独立网卡模式即可:
实现原理简介
新一代方案在原有 VPC-CNI 模式的基础上扩展,依托于弹性网卡,将绑定到节点的弹性网卡通过 CNI 配置到容器网络命名空间,实现容器直接独享使用弹性网卡。当前内测阶段使用限制
仅支持部分 S5 的机型使用该网络模式。
节点上运行的 Pod 数量限制为节点核数的5倍。
仅支持新集群,存量 TKE 集群暂不支持变更网络方案。
TKE 新一代网络方案内测邀请
我们诚挚邀请您参与腾讯云下一容器独立网卡网络方案产品能力的内测, 您可以通过扫描/长按识别下方二维码提交内测申请:点击文末【阅读原文】
也可直接跳转至内测申请页